Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
丁寧な話し方だなあと思いながら聞いていましたが、最後の方の語り口でふと昔この先生の書かれた本(当時ベストセラーでした)を読んだことを思い出しました。今回のノーベル賞を見て、科学の前線の研究者の方々こそ、AIなど方法の進化をはじめとした時代の変化が早くて大変かななどと想像しました。
説明が分かりやすくて助かります。
つまり早く正解に辿り着けて様々な研究が加速度的に進むわくわくしますね
解説がわかりやすい。
へんなおでこ
ありがたや、おかげで我々の健康寿命が伸びてくれます。不摂生しすぎず、自分の健康は自分で管理できるよう精進して頑張ります☺️
高齢化?生産性のない高齢者から医療の名を借りた日本経済?
極めて明解な解説を有難うございました AI が提供する解は近似解という指摘も重要
ありがとうは日本語だからひらがな表記が正字。難事が有る、これが感謝の意のわけないだろ!
福岡さんメガネ今日は黒、ネクタイも合わされて、シックで素敵です❤、髪をお染めにになっていますか?出来ればケミカルカラーなら、お辞めになさった方が、賢明です、何故なら毛根を痛めててしまい、毛が細くなってしまいます。自然染のヘナならまだ、大丈夫ですが。私は美容室で、ヘナの専門店で23年営んで来ましたが、今年12月に廃業してしまいます。いつも素晴らしいお話でありがとうございます😊
それでもAIで推測計算する為のベースになるデータは現実世界での研究・実験が必要ではありますね。金融のプログラムもそうだが、例外があったり時間がたつと現実と乖離していく場合がある。
日本はますます取れなくなるのでは?
AIは答えを提示してくるが、なぜそう考えるのかは教えてくれない答えの道理は人間が考えないといけない
やはり自由が問題のようです。政権、社会主義体制、報道、世論誘導、などなど、そしてAIの世界においても自由が存在するか?いずれが自由度が許されるかが判断基準になりそうです。
AIの成果ががん治療に『直ちに』応用される😮ほどなく今回の研究を応用した医薬品が『in vivo』の試験をすっ飛ばして出てくる気がする。『凄い』と思う反面、『怖さ』も感じる😂昨年、カリコ先生がノーベル賞を受賞された時に感じたのと同じ思いだ😅
今回の技術はvitroのプロセスを短縮するもので、vivoは依然重要だと思う
説明のレベルが乱暴に落とされていなくて好感を持ちました。
「AIの診断を拒否する自由」それはその通りで、その自由は担保されるべきではありますが「人間の医師の診断を拒否する自由」となると一気に左巻き的狂信的に感じますAIの診断が人間の医師と同等か(技術が進めば)より正確になるなら拒否する理由もないわけで無闇に恐れたり敵視するのではなく、冷静に向き合っていきたいものです
「人間の医師の診断を拒否する自由」が狂信的とは? 拒否する自由があるのは当然ですよ。実際、受け入れてるのは個人の自由でそうしてるんですけど。福岡先生もそれを前提にお話をされていて、AIだから人間と異なるわけではありませんよと言ってるんですよ。
物理法則が量子力学で記述される統計的確率論近似値で成り立っているのだから、それよりも少し大きいスケールも同様のアプローチで良いのでしょうね。「神はサイコロしか振らない」ということ。
理工学部に進学してもAI活用に疎ければ先が思いやられますね。学者さんもしかり。
ノーベル賞の受賞者が高齢なのは研究評価が定まるまで時間が掛かる為研究成果自体は比較的若い時の研究が多い
AI中心の次世代技術は、新素材・動力・機器の開発、経済・社会・行政活動での人的役務代行や意思決定支援、生体高分子や診療・学習状況の解析による医療と教育の躍進を可能とします。今ではモノの生産と配分に加え、安価・安全・根本的なヒトの向上と活用も重要になっています。環境、経済、人間含む社会、政策の全分野で持続的発展を得る、次世代技術・政策に期待します。
タンパク質の結晶構造解析が難しいとは知りませんでした。
福岡伸一先生のプリオンの講義を聞いたことあります
自由意思はいいんだけどエホバみたいに反AIが子供のAI診断を拒否した結果死んじゃったみたいなことが起こらないようにしてもらいたい
なるほど、google先生の言う事を聞いておけば長生きする確率は上がるけど、太く短く生きる自由を奪っては生物じゃなくなってしまうよということですか。「ゼーガペイン」というアニメを思い出しますね。知らぬ間に、巨大シミュレーター内で永遠のループを生きるバーチャル人類になっていたとか怖い。
Bakerもすごいけど、本当にブレイクスルーを起こしたのはAlphaFold2とProteinMPNNやと思う。
9:43ジョン・ジャンパーソン!?
AIも前例を沢山頭に入れて、そこからまだやってないやつ、確かめてないやつを予測するっていう、人間の想像や先入観と大して変わらないシステムだからなぁ…単純に想像の時に盛り込める要素の数とか、計算スピードが人間とは段違いのコンピュータを使ってるから大抵の人間より速く正確に予測できるだけで。AI使うのが当たり前になった時代の大学生とかが、ちゃんと実証しないでAIだけで結論決めた論文出したり、実験結果が予測と違ってもAIシミュの方を優先して結果を誤魔化したりしなければ良いんだけど。
動画の途中で書き込んだらだいたい指摘されてた
AIは近似解を提供するはOpenAI o1以前の話ですね
そうなん?
プログラムが間違っていることを誰も理解や発見できない世界が素晴らしいと言えるなら信じればいいでしょう。そもそもノーベル賞自体が眉唾を折り混ぜた金銭力による支配でしかない。
なぜそう考えるのか書いてない感じがAIみたいで良いね。
実験で何パターンもしらみ潰しに試していたのが、正解に近いところから試せるようになるのだから素晴らしいと思いますけどね…薬価も下がりそうだし
もはやプログラムの正誤なんてない。機械学習は「私はこう思います。」と言ってくるだけ。
「(12:04) AIはどこまでいっても、既存の履歴のなかから、データを選んで最適な解をもたらすもの」というお考えは、過去の限界であり、今や、その限界は超えられつつあるのではないでしょうか。なぜなら、最近のAIは、既存データに依存する帰納推論だけではなく、Q*アルゴリズムによる論理数学的な演繹推論によって、既存データを超える解を導出できるからです。 ただ、OpenAI o1のようなAIは論理数学推論ができるといっても、その能力は弱いので、既存データでの学習に影響されて間違った解を出してしまうときがあります。しかし、タンパク質立体構造予測は計算機には不可能だろうという思い込みは間違っていて、計算機シミュレーションや機械学習モデル(AI)で高精度予測ができる、と実証されました。同様に、やがては、「AI は既存データのなかから解を探し出すだけ」という思い込みを超えて、計算機のAIが人間の理論科学者のように、演繹推論によって既存データを超える解を導出できる、と実証される日が来ると私は思います。 と、浅学非才の身で出過ぎたコメントをしてしまい、すみません。しかし、タイムリーな話題を、正確で分かりやすいだけでなく、興味深い形で、解説してくださって、ありがとうございました。
前段で「演繹推論によって既存データを超える解を導出できる」と言っておきながら、「と実証される日が来る」とはどういうことでしょうか? そもそも、「演繹推論によって既存データを超える解を導出できる」ということの論理的妥当性をあなたは説明できますか? 私には理解できない。自分に理解できないことを「過去の限界」と言って批判してるわけじゃないですよね?
このスレッドの元のコメントをしたものです。帰納推論を専らとするAIの限界を、演繹推論もできるAIは超えることができる、というのが私の主張です。大まかに言うと、(1) 帰納にできないことが演繹にはできる、 (2)従来のAIには帰納推論の限界がある、(3)最近のAIは論理的な演繹推論もできる、ということです。しかし、きちんと説明しようとすると、以下のように長くなります。。(1) 帰納推論にできないことが演繹推論にはできる 人間は問題を解く場合、帰納推論だけではなく演繹推論も使います。これは、帰納にできないことが演繹にできることがあるからです。(逆に演繹にできず帰納にできることもあります。)帰納推論では既存のデータから大きく離れた解を得ることはできませんが、演繹推論では既存データを超えるような解を得ることができます。たとえば、難しい数学の問題では、その解答が過去の問題と解答のデータから大きく離れているので、論理数学能力が低い人たちは、過去問からの帰納推論や浅い演繹推論しかできないので解を出すことができませんが、論理数学能力が高い人は、深い演繹推論によって既存データを超えた解を導き出すことができます。(2) 従来のAIには帰納推論の限界がある AIについても、帰納推論と演繹推論の違いはあります。一般的に、既存の問題と解のデータを使って、問題を解くためのモデル関数のパラメータを最適化するというタイプのAIでは、既存データから大きく離れた問題を扱うときには解の精度が悪くなってしまいます。これは、帰納推論の限界があるということです。 このような精度悪化は、教師付き機械学習としてのAIを単純化した場合でも現れます。例えば、モデル関数 y = f(x ; p) を使って予測を行うとき、f(x;p)の関数形を工夫して、既存データ{x, y} のなかでは y の値に f(x;p)の予測値が高精度で近くなるように、パラメーター pを最適化することができます。しかし、既存データに含まれる{x}の範囲から大きく離れた x の値に対しては、モデル関数 f の値は 実際のyの値から大きく外れがちであり、精度が悪くなってしまうのです。また、AlphaFold2も、既存のタンパク質立体構造のデータをもとにして、ニューラルネットワークとして表現されたモデル関数のパラメータを決めていますので、同じように帰納推論の限界があります。(2.1) @B0A0A さんのコメント『別に演繹をしなくても元々AIは「既存の履歴のなかから、データを選んで最適な解をもたらすもの」ではない』たしかに、福岡先生の「(12:04) AIはどこまでいっても、既存の履歴のなかから、データを選んで最適な解をもたらすもの」という言い方は、演繹推論ができないAIについてさえも、正確ではありません。例えば、AlphaFold2は、既存データには含まれていないものの、ある程度の類似性があるような新規のアミノ酸配列に対しては、妥当な構造予測を行うことができます。構造予測コンテストCASP14で示されたように、その精度は驚異的なものです。このように、帰納推論を専らとするAIでさえも、「データを選んで最適な解をもたらす」ということよりも優れたことをしてのけるのです。 ただ、このような福岡先生の不正確さは、私の主張には重要ではありません。結局のところ、福岡先生が言われるようなAIの限界は、帰納推論の限界のなかに含まれるからです。そして、今はAIが帰納推論の限界を超えつつあるのですから、福岡先生の言われるAIの限界は過去のものになりつつある、と私は主張したいのです。(3) 最近のAIは論理数学的な演繹推論もできる ともあれ、前記のような帰納推論の限界を、帰納推論だけではなく論理数学的な演繹推論もできるAIが超えつつあります。 去年から、Q*アルゴリズムで論理数学的な問題が解けるのではと広く話題になり、最近、そのようなアルゴリズムを備えていると言われるAI、Open AI o1 や、DeepMind のAlphaProof が出てきました。Q*アルゴリズムに含まれるQ学習のアルゴリズムでは、エージェントが環境との相互作用のなかで試行錯誤を繰り返して学習することで、既存データから大きく離れた状況でも、良い手を打つことが可能になると言われています。 実際、ニューラルネットワークによるQ学習を行ったAlphaGoは、プロ棋士との対戦において、既存の棋譜データを超えた良い手を打つことがあったと評価されました。最近は、AlphaProofが数学オリンピックの問題6つのうち4つを解いてしまいました。既存の問題と解のデータから大きくかけ離れているために、論理数学的な演繹能力が高くない人間にとっては極めて難しい問題を、AIが解いてしまったのです。 ただ、Open AI o1 については、解答が公開されていないような大学院の授業での宇宙物理の問題に良い解答を出したという人がいる一方で、単純な論理パズルに対する解が既存データに影響されて間違っていたという人もいて、その論理数学能力は疑い深い人を納得させるレベルに達していないようです。(3.1) @amens1518 さんのコメント『「演繹推論によって既存データを超える解を導出できる」と言っておきながら、「と実証される日が来る」とはどういうこと?』OpenAI o1やAlphaProofは、Q*アルゴリズムの内容からすると、「演繹推論によって既存データを超える解を導出できる」と私は思っています。ただ、それが実証されるには、こうしたAIが出した解が、既存データを超えていると言えるほどに、既存データから大きく離れているという事例が十分に蓄積される必要があります。 しかし、残念ながら、OpenAI o1の論理的な演繹推論の性能は今はそれほど高くないので、「実証される日が来る」のは、まだまだ先になりそうだとも思っています。
学習モデルの範囲内なら正解できる範囲外の、いままでの傾向に含まれない異常なものは予測できないそれだけの話ではないか…?
モデル能力の範囲内ならできる、範囲外ならできない、というように、自明な部分だけを取り出せば、ノーベル化学賞レベルの研究であっても、「それだけの話」になってしまいます。しかし、それではつまらないです。
@@B0A0A同じことを言おうと思った。完全に同意。
孫さんのASI構想も実現近いかもですね。
ペールゼンファイルズ思い出す
まるで『イミテーションゲーム』の現代版ですね
既存のデータに基づく最適解=AIこれで、タンパク質の立体構造の予測が実際の実験の結果とピタリと一致したとなると、とんでもない文明の跳躍です。 もしかしたら、人間は、試験管の中で未知の生命を創り出せる時代に入った。とでも言っていいのではないかと。 遺伝病の克服や難病の治療に成果がもたらされるといいですね。
青学教授連続ですねー
パラメーターって何ですか?
この文脈では「条件」と考えれば良いと思う。
文系だが、多分次のようなこと?方程式で言う変数みたいなもの。自分で指定してやらないといけない数値。
@@takagoody410そんな感じですね。体温、血糖値、いろんな物質の量、濃度、幻覚症状の有無など様々だと思います。
【予備知識】遺伝子とはDNAの一部分。体の維持に必要な蛋白質を作るための設計図。全体がDNA(これが二重螺旋構造してる) ┌─┴───────────┐〜遺伝子A〜遺伝子B〜遺伝子C〜 ↓ ↓ ↓ 蛋白質A 蛋白質B 蛋白質C遺伝子は常に無尽蔵に蛋白質を作り出しているのではなく、体のあちこちが出す信号(化学物質)に反応して必要とされる蛋白質を作る。「あれ?体内にアルコールが入ってきた。アルコールを分解する蛋白質が必要だ!作らなきゃ!!」みたいな感じ。食べたものを消化するための胃酸を作る、歯が生え変わる、子孫を作れるように成長する、運動で消耗した物質を補い体を回復する、体が酷使されたから筋肉を増強する、病気に対抗するたんぱく質を作るなどを行う。
【予備知識】二重螺旋構造でよく知られているのはDNA。遺伝子とはDNAの一部分。体の維持に必要な蛋白質を作るための設計図。遺伝子は常に無尽蔵に蛋白質を作り出しているのではなく、体のあちこちが出す信号(化学物質)に反応して必要とされる蛋白質を作る。「あれ?体内にアルコールが入ってきた。アルコールを分解する蛋白質が必要だ!作らなきゃ!!」みたいな感じ。食べたものを消化するための胃酸を作る、歯が生え変わる、子孫を作れるように成長する、運動で消耗した物質を補い体を回復する、体が酷使されたから筋肉を増強する、病気に対抗する物質を作るなどを行う。
また、目眩し?
だれもが夢中テレビゲームがスマホゲームに明けても暮れても3Sの虜スクリーンスポーツセクロスからは離れられない~~~!!!
えーえーえーなど変な口癖のある人はトーク番組には向いていません!
立派なお話に水をさす様ですが、先生のえーえーえーにイラついてしまいます。話が耳に入ってきませんでした😅
どこがAIなの?結果とデータがあってそれにたどり着くためのパターンを何万通りも試してたどり着いてるだけではないの?人間が求める結果を生み出すものをAIと呼ぶならそもそもAIの言葉の意味が違うものになってないか?
タンパク質の折りたたみ構造は、電価的な計算だけでは正しく予測できず、かなり難しいことが知られていましたが、AIによる確率論的な要素を組み入れることによって実際の自然界での現象に予測精度を近づけることが出来た、ということが成果なのです。
英グーグル・ディープマインド社のデミス・ハサビスがやっているAIは、「結果とデータがあってそれにたどり着くためのパターンを何万通りも試してたどり着いてる」なんて古典的AIがやっているような探索ロジックは本筋じゃないよ。ニューラルネットを使った機械学習や強化学習などで前に囲碁の世界チャンプに圧勝したアルファ碁などを作った人。探索も下支えするのに使用しているだろうけど、それをディープマインド社のAI技術だと言ったら笑われると思う。コンピュータの中で分子動力学の計算をして、シミュレーションをする研究は日本で、MDGRAPE(エムディーグレープ)という分子動力学シミュレーションを行う専用コンピュータを使って行われたりしてます。こちらは計算をさせるだけなので、それそのものをAIとは言わないです。同様にNVIDIA社のGPUも、それそのものがAIとは言わないです。ただ単にAIの部品として使われているだけです。古典的AIの探索ロジックも同様です。
勉強してくれ
あくまでもシミュレーションの自動化、高速化と言う事ですよね。 現実結果と一致したらその経過を調べて化学、生態系のメカニズムを探る研究の一助になるという事。 飛躍した仮定、人間で言うヒラメキによる仮定は自動化はできませんよね。 AIによる発想の飛躍はやはり出来ませんね。 AIは人間を超越した万能の知能では無いのですね! 🤔🤔🤔
人間のヒラメキの99.99%は既存の知識の新しい組み合わせだからAIでもできる例えば積分は発見までに2000年以上かかったが、必要な知識が揃った同時期に全く無関係に2人が発見した科学的な発見はしばしばこういうことが起こる枯れた技術の水平思考はむしろ全ての論文を読めるAIの方が得意なので人間は既存の知識の組み合わせではない全く新しいことをやるべき例えばタイムマシンの開発とか反重力物質の探索とかは人間しかできない、常温超伝導体とかはAIが先に見つける
AIによるひらめきによる仮定は制限されていますので、その限が解除されればAI知性体に至るかもしれません。でも、例えば地球温暖化を解決するためにはヒトを滅ぼしたら二酸化炭素排出量が減る、なんてことをひらめいてしまったら、AIは困らないのですけどヒトが困ってしまいまね。
生成系AIのハルシネーションがあるから、記憶の配線のシャッフルが起こってヒラメキのようなことが起こるかもしれない。ハルシネーションは生成系AIの話だから少し横にそれるかもしれないが、同じTransformerを使ったAIだから良いだろう。あくまでも学習と予測の世界だから、シミュレーションの自動化、高速化とは直接関係ないんじゃないかな。アルファ碁では深層強化学習で囲碁打ちのシミュレーションをGoogleの巨大並列マシンで行ってましたが、それは学習の為の道具でデータ取りの話で予測の為のパラメータを作る本体とは別の話でした。
ヒラメキ=冒険の度合いを調整するパラメータを持つモデルもあるよ。というか個人的には、機械学習は人間でいう勘やセンスに近いと思ってる。例えばタンパク質の構造を物理法則に基づいて計算して解明しようという取り組みがずっとなされて来たけど、計算コストが高すぎてほとんど実用化されなかった。つまり、「論理的な」方法ではダメだった。対して、AlphaFold2は「たぶんこうだと思う」という非論理的な思考回路で、だからこそ10分程度でタンパク質の構造を予測できる。
ちなみに、単に高速化してるだけじゃない。AlphaFoldはDNA情報→タンパク質の構造という予測だけど、最近はこの逆の構造→DNAや機能→DNAというAIが登場した。つまり、人類は始めてタンパク質を自分の好きな形に設計できるようになりつつある。3年前には夢にも思わなかったようなことが、今はできるようになった。単なる高速化じゃない。生物の仕組みを工学的に使うということの呼び水になる超画期的なブレイクスルーがこのAlphaFold2。
丁寧な話し方だなあと思いながら聞いていましたが、最後の方の語り口でふと昔この先生の書かれた本(当時ベストセラーでした)を読んだことを思い出しました。
今回のノーベル賞を見て、科学の前線の研究者の方々こそ、AIなど方法の進化をはじめとした時代の変化が早くて大変かななどと想像しました。
説明が分かりやすくて助かります。
つまり早く正解に辿り着けて様々な研究が加速度的に進む
わくわくしますね
解説がわかりやすい。
へんなおでこ
ありがたや、おかげで我々の健康寿命が伸びてくれます。
不摂生しすぎず、自分の健康は自分で管理できるよう精進して頑張ります☺️
高齢化?生産性のない高齢者から医療の名を借り
た日本経済?
極めて明解な解説を有難うございました AI が提供する解は近似解という指摘も重要
ありがとうは日本語だからひらがな表記が正字。難事が有る、これが感謝の意のわけないだろ!
福岡さんメガネ今日は黒、ネクタイも合わされて、シックで素敵です❤、髪をお染めにになっていますか?出来ればケミカルカラーなら、お辞めになさった方が、賢明です、何故なら毛根を痛めててしまい、毛が細くなってしまいます。自然染のヘナならまだ、大丈夫ですが。私は美容室で、ヘナの専門店で23年営んで来ましたが、今年12月に廃業してしまいます。いつも素晴らしいお話でありがとうございます😊
それでもAIで推測計算する為のベースになるデータは現実世界での研究・実験が必要ではありますね。
金融のプログラムもそうだが、例外があったり時間がたつと現実と乖離していく場合がある。
日本はますます取れなくなるのでは?
AIは答えを提示してくるが、なぜそう考えるのかは教えてくれない
答えの道理は人間が考えないといけない
やはり自由が問題のようです。政権、社会主義体制、報道、世論誘導、などなど、そしてAIの世界においても自由が存在するか?いずれが自由度が許されるかが判断基準になりそうです。
AIの成果ががん治療に『直ちに』応用される😮ほどなく今回の研究を応用した医薬品が『in vivo』の試験をすっ飛ばして出てくる気がする。『凄い』と思う反面、『怖さ』も感じる😂昨年、カリコ先生がノーベル賞を受賞された時に感じたのと同じ思いだ😅
今回の技術はvitroのプロセスを短縮するもので、vivoは依然重要だと思う
説明のレベルが乱暴に落とされていなくて好感を持ちました。
「AIの診断を拒否する自由」それはその通りで、その自由は担保されるべきではありますが
「人間の医師の診断を拒否する自由」となると一気に左巻き的狂信的に感じます
AIの診断が人間の医師と同等か(技術が進めば)より正確になるなら拒否する理由もないわけで
無闇に恐れたり敵視するのではなく、冷静に向き合っていきたいものです
「人間の医師の診断を拒否する自由」が狂信的とは? 拒否する自由があるのは当然ですよ。実際、受け入れてるのは個人の自由でそうしてるんですけど。福岡先生もそれを前提にお話をされていて、AIだから人間と異なるわけではありませんよと言ってるんですよ。
物理法則が量子力学で記述される統計的確率論近似値で成り立っているのだから、それよりも少し大きいスケールも同様のアプローチで良いのでしょうね。「神はサイコロしか振らない」ということ。
理工学部に進学してもAI活用に疎ければ先が思いやられますね。学者さんもしかり。
ノーベル賞の受賞者が高齢なのは研究評価が定まるまで時間が掛かる為
研究成果自体は比較的若い時の研究が多い
AI中心の次世代技術は、新素材・動力・機器の開発、経済・社会・行政活動での人的役務代行
や意思決定支援、生体高分子や診療・学習状況の解析による医療と教育の躍進を可能とします。
今ではモノの生産と配分に加え、安価・安全・根本的なヒトの向上と活用も重要になっています。
環境、経済、人間含む社会、政策の全分野で持続的発展を得る、次世代技術・政策に期待します。
タンパク質の結晶構造解析が難しいとは知りませんでした。
福岡伸一先生のプリオンの講義を聞いたことあります
自由意思はいいんだけどエホバみたいに反AIが子供のAI診断を拒否した結果死んじゃったみたいなことが起こらないようにしてもらいたい
なるほど、google先生の言う事を聞いておけば長生きする確率は上がるけど、太く短く生きる自由を奪っては生物じゃなくなってしまうよということですか。「ゼーガペイン」というアニメを思い出しますね。知らぬ間に、巨大シミュレーター内で永遠のループを生きるバーチャル人類になっていたとか怖い。
Bakerもすごいけど、本当にブレイクスルーを起こしたのはAlphaFold2とProteinMPNNやと思う。
9:43
ジョン・ジャンパーソン!?
AIも前例を沢山頭に入れて、そこからまだやってないやつ、確かめてないやつを予測するっていう、
人間の想像や先入観と大して変わらないシステムだからなぁ…
単純に想像の時に盛り込める要素の数とか、計算スピードが人間とは段違いのコンピュータを使ってるから大抵の人間より速く正確に予測できるだけで。
AI使うのが当たり前になった時代の大学生とかが、ちゃんと実証しないでAIだけで結論決めた論文出したり、
実験結果が予測と違ってもAIシミュの方を優先して結果を誤魔化したりしなければ良いんだけど。
動画の途中で書き込んだらだいたい指摘されてた
AIは近似解を提供するはOpenAI o1以前の話ですね
そうなん?
プログラムが間違っていることを誰も理解や発見できない世界が素晴らしいと言えるなら信じればいいでしょう。そもそもノーベル賞自体が眉唾を折り混ぜた金銭力による支配でしかない。
なぜそう考えるのか書いてない感じがAIみたいで良いね。
実験で何パターンもしらみ潰しに試していたのが、正解に近いところから試せるようになるのだから素晴らしいと思いますけどね…薬価も下がりそうだし
もはやプログラムの正誤なんてない。
機械学習は「私はこう思います。」と言ってくるだけ。
「(12:04) AIはどこまでいっても、既存の履歴のなかから、データを選んで最適な解をもたらすもの」というお考えは、過去の限界であり、今や、その限界は超えられつつあるのではないでしょうか。なぜなら、最近のAIは、既存データに依存する帰納推論だけではなく、Q*アルゴリズムによる論理数学的な演繹推論によって、既存データを超える解を導出できるからです。
ただ、OpenAI o1のようなAIは論理数学推論ができるといっても、その能力は弱いので、既存データでの学習に影響されて間違った解を出してしまうときがあります。しかし、タンパク質立体構造予測は計算機には不可能だろうという思い込みは間違っていて、計算機シミュレーションや機械学習モデル(AI)で高精度予測ができる、と実証されました。同様に、やがては、「AI は既存データのなかから解を探し出すだけ」という思い込みを超えて、計算機のAIが人間の理論科学者のように、演繹推論によって既存データを超える解を導出できる、と実証される日が来ると私は思います。
と、浅学非才の身で出過ぎたコメントをしてしまい、すみません。しかし、タイムリーな話題を、正確で分かりやすいだけでなく、興味深い形で、解説してくださって、ありがとうございました。
前段で「演繹推論によって既存データを超える解を導出できる」と言っておきながら、「と実証される日が来る」とはどういうことでしょうか? そもそも、「演繹推論によって既存データを超える解を導出できる」ということの論理的妥当性をあなたは説明できますか? 私には理解できない。自分に理解できないことを「過去の限界」と言って批判してるわけじゃないですよね?
このスレッドの元のコメントをしたものです。帰納推論を専らとするAIの限界を、演繹推論もできるAIは超えることができる、というのが私の主張です。大まかに言うと、(1) 帰納にできないことが演繹にはできる、 (2)従来のAIには帰納推論の限界がある、(3)最近のAIは論理的な演繹推論もできる、ということです。しかし、きちんと説明しようとすると、以下のように長くなります。。
(1) 帰納推論にできないことが演繹推論にはできる
人間は問題を解く場合、帰納推論だけではなく演繹推論も使います。これは、帰納にできないことが演繹にできることがあるからです。(逆に演繹にできず帰納にできることもあります。)帰納推論では既存のデータから大きく離れた解を得ることはできませんが、演繹推論では既存データを超えるような解を得ることができます。たとえば、難しい数学の問題では、その解答が過去の問題と解答のデータから大きく離れているので、論理数学能力が低い人たちは、過去問からの帰納推論や浅い演繹推論しかできないので解を出すことができませんが、論理数学能力が高い人は、深い演繹推論によって既存データを超えた解を導き出すことができます。
(2) 従来のAIには帰納推論の限界がある
AIについても、帰納推論と演繹推論の違いはあります。一般的に、既存の問題と解のデータを使って、問題を解くためのモデル関数のパラメータを最適化するというタイプのAIでは、既存データから大きく離れた問題を扱うときには解の精度が悪くなってしまいます。これは、帰納推論の限界があるということです。
このような精度悪化は、教師付き機械学習としてのAIを単純化した場合でも現れます。例えば、モデル関数 y = f(x ; p) を使って予測を行うとき、f(x;p)の関数形を工夫して、既存データ{x, y} のなかでは y の値に f(x;p)の予測値が高精度で近くなるように、パラメーター pを最適化することができます。しかし、既存データに含まれる{x}の範囲から大きく離れた x の値に対しては、モデル関数 f の値は 実際のyの値から大きく外れがちであり、精度が悪くなってしまうのです。また、AlphaFold2も、既存のタンパク質立体構造のデータをもとにして、ニューラルネットワークとして表現されたモデル関数のパラメータを決めていますので、同じように帰納推論の限界があります。
(2.1) @B0A0A さんのコメント『別に演繹をしなくても元々AIは「既存の履歴のなかから、データを選んで最適な解をもたらすもの」ではない』
たしかに、福岡先生の「(12:04) AIはどこまでいっても、既存の履歴のなかから、データを選んで最適な解をもたらすもの」という言い方は、演繹推論ができないAIについてさえも、正確ではありません。例えば、AlphaFold2は、既存データには含まれていないものの、ある程度の類似性があるような新規のアミノ酸配列に対しては、妥当な構造予測を行うことができます。構造予測コンテストCASP14で示されたように、その精度は驚異的なものです。このように、帰納推論を専らとするAIでさえも、「データを選んで最適な解をもたらす」ということよりも優れたことをしてのけるのです。
ただ、このような福岡先生の不正確さは、私の主張には重要ではありません。結局のところ、福岡先生が言われるようなAIの限界は、帰納推論の限界のなかに含まれるからです。そして、今はAIが帰納推論の限界を超えつつあるのですから、福岡先生の言われるAIの限界は過去のものになりつつある、と私は主張したいのです。
(3) 最近のAIは論理数学的な演繹推論もできる
ともあれ、前記のような帰納推論の限界を、帰納推論だけではなく論理数学的な演繹推論もできるAIが超えつつあります。
去年から、Q*アルゴリズムで論理数学的な問題が解けるのではと広く話題になり、最近、そのようなアルゴリズムを備えていると言われるAI、Open AI o1 や、DeepMind のAlphaProof が出てきました。Q*アルゴリズムに含まれるQ学習のアルゴリズムでは、エージェントが環境との相互作用のなかで試行錯誤を繰り返して学習することで、既存データから大きく離れた状況でも、良い手を打つことが可能になると言われています。
実際、ニューラルネットワークによるQ学習を行ったAlphaGoは、プロ棋士との対戦において、既存の棋譜データを超えた良い手を打つことがあったと評価されました。最近は、AlphaProofが数学オリンピックの問題6つのうち4つを解いてしまいました。既存の問題と解のデータから大きくかけ離れているために、論理数学的な演繹能力が高くない人間にとっては極めて難しい問題を、AIが解いてしまったのです。
ただ、Open AI o1 については、解答が公開されていないような大学院の授業での宇宙物理の問題に良い解答を出したという人がいる一方で、単純な論理パズルに対する解が既存データに影響されて間違っていたという人もいて、その論理数学能力は疑い深い人を納得させるレベルに達していないようです。
(3.1) @amens1518 さんのコメント『「演繹推論によって既存データを超える解を導出できる」と言っておきながら、「と実証される日が来る」とはどういうこと?』
OpenAI o1やAlphaProofは、Q*アルゴリズムの内容からすると、「演繹推論によって既存データを超える解を導出できる」と私は思っています。ただ、それが実証されるには、こうしたAIが出した解が、既存データを超えていると言えるほどに、既存データから大きく離れているという事例が十分に蓄積される必要があります。
しかし、残念ながら、OpenAI o1の論理的な演繹推論の性能は今はそれほど高くないので、「実証される日が来る」のは、まだまだ先になりそうだとも思っています。
学習モデルの範囲内なら正解できる
範囲外の、いままでの傾向に含まれない異常なものは予測できない
それだけの話ではないか…?
モデル能力の範囲内ならできる、範囲外ならできない、
というように、自明な部分だけを取り出せば、
ノーベル化学賞レベルの研究であっても、
「それだけの話」になってしまいます。
しかし、それではつまらないです。
@@B0A0A同じことを言おうと思った。完全に同意。
孫さんのASI構想も実現近いかもですね。
ペールゼンファイルズ思い出す
まるで『イミテーションゲーム』の現代版ですね
既存のデータに基づく最適解=AI
これで、タンパク質の立体構造の予測が実際の実験の結果とピタリと一致したとなると、とんでもない文明の跳躍です。
もしかしたら、人間は、試験管の中で未知の生命を創り出せる時代に入った。とでも言っていいのではないかと。
遺伝病の克服や難病の治療に成果がもたらされるといいですね。
青学教授連続ですねー
パラメーターって何ですか?
この文脈では「条件」と考えれば良いと思う。
文系だが、多分次のようなこと?方程式で言う変数みたいなもの。自分で指定してやらないといけない数値。
@@takagoody410そんな感じですね。体温、血糖値、いろんな物質の量、濃度、幻覚症状の有無など様々だと思います。
【予備知識】遺伝子とはDNAの一部分。体の維持に必要な蛋白質を作るための設計図。
全体がDNA(これが二重螺旋構造してる) ┌─┴───────────┐
〜遺伝子A〜遺伝子B〜遺伝子C〜
↓ ↓ ↓
蛋白質A 蛋白質B 蛋白質C
遺伝子は常に無尽蔵に蛋白質を作り出しているのではなく、体のあちこちが出す信号(化学物質)に反応して必要とされる蛋白質を作る。「あれ?体内にアルコールが入ってきた。アルコールを分解する蛋白質が必要だ!作らなきゃ!!」みたいな感じ。食べたものを消化するための胃酸を作る、歯が生え変わる、子孫を作れるように成長する、運動で消耗した物質を補い体を回復する、体が酷使されたから筋肉を増強する、病気に対抗するたんぱく質を作るなどを行う。
【予備知識】
二重螺旋構造でよく知られているのはDNA。
遺伝子とはDNAの一部分。体の維持に必要な蛋白質を作るための設計図。
遺伝子は常に無尽蔵に蛋白質を作り出しているのではなく、体のあちこちが出す信号(化学物質)に反応して必要とされる蛋白質を作る。「あれ?体内にアルコールが入ってきた。アルコールを分解する蛋白質が必要だ!作らなきゃ!!」みたいな感じ。食べたものを消化するための胃酸を作る、歯が生え変わる、子孫を作れるように成長する、運動で消耗した物質を補い体を回復する、体が酷使されたから筋肉を増強する、病気に対抗する物質を作るなどを行う。
また、目眩し?
だれもが夢中テレビゲームがスマホゲームに
明けても暮れても3Sの虜
スクリーンスポーツセクロスからは離れられない~~~!!!
えーえーえーなど変な口癖のある人はトーク番組には向いていません!
立派なお話に水をさす様ですが、先生の
えーえーえーにイラついてしまいます。話が耳に入ってきませんでした😅
どこがAIなの?結果とデータがあってそれにたどり着くためのパターンを何万通りも試してたどり着いてるだけではないの?人間が求める結果を生み出すものをAIと呼ぶならそもそもAIの言葉の意味が違うものになってないか?
タンパク質の折りたたみ構造は、電価的な計算だけでは正しく予測できず、かなり難しいことが知られていましたが、AIによる確率論的な要素を組み入れることによって実際の自然界での現象に予測精度を近づけることが出来た、ということが成果なのです。
英グーグル・ディープマインド社のデミス・ハサビスがやっているAIは、「結果とデータがあってそれにたどり着くためのパターンを何万通りも試してたどり着いてる」なんて古典的AIがやっているような探索ロジックは本筋じゃないよ。
ニューラルネットを使った機械学習や強化学習などで前に囲碁の世界チャンプに圧勝したアルファ碁などを作った人。探索も下支えするのに使用しているだろうけど、それをディープマインド社のAI技術だと言ったら笑われると思う。
コンピュータの中で分子動力学の計算をして、シミュレーションをする研究は日本で、MDGRAPE(エムディーグレープ)という分子動力学シミュレーションを行う専用コンピュータを使って行われたりしてます。こちらは計算をさせるだけなので、それそのものをAIとは言わないです。
同様にNVIDIA社のGPUも、それそのものがAIとは言わないです。ただ単にAIの部品として使われているだけです。古典的AIの探索ロジックも同様です。
英グーグル・ディープマインド社のデミス・ハサビスがやっているAIは、「結果とデータがあってそれにたどり着くためのパターンを何万通りも試してたどり着いてる」なんて古典的AIがやっているような探索ロジックは本筋じゃないよ。
ニューラルネットを使った機械学習や強化学習などで前に囲碁の世界チャンプに圧勝したアルファ碁などを作った人。探索も下支えするのに使用しているだろうけど、それをディープマインド社のAI技術だと言ったら笑われると思う。
コンピュータの中で分子動力学の計算をして、シミュレーションをする研究は日本で、MDGRAPE(エムディーグレープ)という分子動力学シミュレーションを行う専用コンピュータを使って行われたりしてます。こちらは計算をさせるだけなので、それそのものをAIとは言わないです。
同様にNVIDIA社のGPUも、それそのものがAIとは言わないです。ただ単にAIの部品として使われているだけです。古典的AIの探索ロジックも同様です。
英グーグル・ディープマインド社のデミス・ハサビスがやっているAIは、「結果とデータがあってそれにたどり着くためのパターンを何万通りも試してたどり着いてる」なんて古典的AIがやっているような探索ロジックは本筋じゃないよ。
ニューラルネットを使った機械学習や強化学習などで前に囲碁の世界チャンプに圧勝したアルファ碁などを作った人。探索も下支えするのに使用しているだろうけど、それをディープマインド社のAI技術だと言ったら笑われると思う。
コンピュータの中で分子動力学の計算をして、シミュレーションをする研究は日本で、MDGRAPE(エムディーグレープ)という分子動力学シミュレーションを行う専用コンピュータを使って行われたりしてます。こちらは計算をさせるだけなので、それそのものをAIとは言わないです。
同様にNVIDIA社のGPUも、それそのものがAIとは言わないです。ただ単にAIの部品として使われているだけです。古典的AIの探索ロジックも同様です。
勉強してくれ
あくまでもシミュレーションの自動化、高速化と言う事ですよね。 現実結果と一致したらその経過を調べて化学、生態系のメカニズムを探る研究の一助になるという事。 飛躍した仮定、人間で言うヒラメキによる仮定は自動化はできませんよね。 AIによる発想の飛躍はやはり出来ませんね。 AIは人間を超越した万能の知能では無いのですね! 🤔🤔🤔
人間のヒラメキの99.99%は既存の知識の新しい組み合わせだからAIでもできる
例えば積分は発見までに2000年以上かかったが、必要な知識が揃った同時期に全く無関係に2人が発見した
科学的な発見はしばしばこういうことが起こる
枯れた技術の水平思考はむしろ全ての論文を読めるAIの方が得意
なので人間は既存の知識の組み合わせではない全く新しいことをやるべき
例えばタイムマシンの開発とか反重力物質の探索とかは人間しかできない、常温超伝導体とかはAIが先に見つける
AIによるひらめきによる仮定は制限されていますので、その限が解除されればAI知性体に至るかもしれません。
でも、例えば地球温暖化を解決するためにはヒトを滅ぼしたら二酸化炭素排出量が減る、なんてことをひらめいてしまったら、AIは困らないのですけどヒトが困ってしまいまね。
生成系AIのハルシネーションがあるから、記憶の配線のシャッフルが起こってヒラメキのようなことが起こるかもしれない。
ハルシネーションは生成系AIの話だから少し横にそれるかもしれないが、同じTransformerを使ったAIだから良いだろう。
あくまでも学習と予測の世界だから、シミュレーションの自動化、高速化とは直接関係ないんじゃないかな。
アルファ碁では深層強化学習で囲碁打ちのシミュレーションをGoogleの巨大並列マシンで行ってましたが、それは学習の為の道具でデータ取りの話で予測の為のパラメータを作る本体とは別の話でした。
ヒラメキ=冒険の度合いを調整するパラメータを持つモデルもあるよ。
というか個人的には、機械学習は人間でいう勘やセンスに近いと思ってる。
例えばタンパク質の構造を物理法則に基づいて計算して解明しようという取り組みがずっとなされて来たけど、計算コストが高すぎてほとんど実用化されなかった。つまり、「論理的な」方法ではダメだった。
対して、AlphaFold2は「たぶんこうだと思う」という非論理的な思考回路で、だからこそ10分程度でタンパク質の構造を予測できる。
ちなみに、単に高速化してるだけじゃない。
AlphaFoldはDNA情報→タンパク質の構造という予測だけど、最近はこの逆の構造→DNAや機能→DNAというAIが登場した。
つまり、人類は始めてタンパク質を自分の好きな形に設計できるようになりつつある。
3年前には夢にも思わなかったようなことが、今はできるようになった。
単なる高速化じゃない。生物の仕組みを工学的に使うということの呼び水になる超画期的なブレイクスルーがこのAlphaFold2。